Hacia el futuro:
las grandes máquinas calculadoras
A mediados del S. XX, más precisamente en el
año 1944, un equipo de la Universidad de Harvard,
encabezado por Howard H. Aiken, construyó la Mark
I, una computadora basada en rieles (aproximadamente 3000),
con 800 kilómetros de cable, y dimensiones de 17 m. de
largo por 3 m. de alto, más 1 m. de profundidad. Este
gigante era capaz de realizar multiplicaciones y divisiones en
cuestión de segundos. Siguiendo con el trabajo, a Mark I
se le hicieron varias mejoras, dando nacimiento a sus
sucesores, Mark II, Mark III y Mark
IV.
Cabe destacar que la búsqueda de
realización más rápida y eficaz de
cálculo, provenía de una imperiosa necesidad
militar, pues se estaba en plena Segunda Guerra
Mundial.
Algunos años más tarde, en 1947, otro
equipo, de la Universidad de Pennsylvania, encabezado por los
ingenieros John Mauchly y John Eckert, construyó la
ENIAC (Electronical Numerical Integrator and
Calculator), la primera computadora en operar con tubos al
vacío. Llegó a ser 1500 veces superior a Mark
I, gracias a la inclusión de nuevas técnicas
de electrónica en su diseño, que permitieron
reducir el uso de la mecánica en su operación. Por
ejemplo, podía realizar hasta 5000 sumas o 500
multiplicaciones en un segundo, y se podía aplicar su uso
en astronomía, meteorología, entre
otros.
Si bien las aplicaciones de la Mark I o la
ENIAC nos pueden parecer simples en la actualidad,
durante el desarrollo de esta última, el matemático
Von Neumann propuso mejoras que sentaron las bases para llegar a
los modelos de computadoras actuales: un sistema binario, que
reemplazaría al sistema decimal; y que tanto las
instrucciones como los datos quedaran almacenados en la memoria
de la máquina, logrando así que memoria y programa
residan en un mismo sitio.
Finalmente, en 1949, se construyó en la
universidad de Connecticut la EDVAC (Electronic Discrete Variable
Automatic Computer), el primer equipo con capacidad de
almacenamiento de memoria, que volvió obsoletos a los
otros aparatos que debían ser reconfigurados cada vez que
eran utilizados. Compuesto por aprximadamente cuatro mil bulbos,
utilizaba tubos llenos de mercurio por los que circulaban
señales eléctricas sujetas a retardos. Era un
verdadero gigante. Pesaba aproximadamente 7800 kg., y
tenía una superficie de 150 m2. Se la considera la primera
computadora digital de la historia, y fue el puntapié para
el diseño de arquitecturas más
completas.
De esta época, también se puede resaltar
el gran avance que significó la creación del
transistor, por dos científicos de los laboratorios Bell
en 1956, William Bardeen y Walter Bratt, que obtuvieron el premio
Nobel por este descubrimiento.
Luego de este recorrido, es dable decir que Babbage y
Von Neumann pueden ser considerados como los padres de la
computación.
La era de la
computación moderna
Todo comenzó con la creación del
Circuito Integrado o "IC". Más adelante, este
invento recibió el sobrenombre de "chip". Este invento se
le atribuye a Robert Noyce. En principio, el microchip de 6,45
mm2 (décima parte de una pulgada cuadrada) podía
integrar hasta 10 transistores miniaturizados, y eventualmente
logró integrar hasta 1000 piezas pequeñas en un
mismo espacio. Llegada la década del "70, Intel,
la nueva compañía de Noyce, desarrolló el
microprocesador. Este logró integrar en un
minúsculo microchip todas las funciones de un computador,
al adicionar los circuitos mediante delgadísimas capas.
Esto significó un gran avance para la computación,
pues permitió la ejecución de varios programas al
mismo tiempo. Así, las máquinas demostraban una
mayor velocidad de memoria RAM, como así también de
almacenamiento en disco duro.
La computadora personal o PC
Al igual que la TV, las computadoras tienen normas de
compatibilidad. Las dos más populares del mundo han sido
desde siempre IBM y Macintosh. La primera ha sido impuesta por la
empresa del mismo nombre, y la segunda por la empresa APPLE. En
el caso de la segunda, su tecnología era mucho mayor, pero
siempre demostró inclinación por lograr un producto
más caro orientado a trabajos específicos, como el
diseño y las artes gráficas. IBM, en cambio, si
bien ostentaba una tecnología de menor calidad, al ser
mucho más amigable y de uso más amplio,
logró mantener un lugar importante en el mercado mundial.
¿Y por qué es así?
La cuestión central es el sistema operativo, que
no es sino el software que permite a la máquina operar, de
lo contrario no sería sino un montón de piezas
obsoletas. La PC que IBM lanzó en 1980 contaba con el "OS"
(Operative System), que debía adquirirse por separado y
venía en varios disquettes que contenían el
software, y debía ser cargado al aparato para poder
comenzar a utilizarlo. Esto impulsó a un joven a
desarrollar un nuevo sistema operativo, similar al de IBM, pero
menos costoso y compatible con la PC. Así, nació el
DOS (Disk Operative System), de la mano del genial Bill Gates,
hoy a la cabeza de la poderosa Microsoft. El DOS se
destacaba por venir en un solo disquete.
Pronto, las empresas competidoras de IBM y que
fabricaban PC"s similares a la del "gigante azul" (como se
conocía a IBM), mucho más baratas desde luego,
comenzaron a crecer y representar un gran problema, gracias al
DOS de Bill Gates. Con el tiempo, de entre estas competidoras,
INTEL tomó el liderazgo, pues producía
microprocesadores cada vez más potentes, y Microsoft
realizaba mejoras a su Sistema Operativo, compatibles con las
mejoras de INTEL.
Eventualmente, IBM tuvo que adaptarse, y es así
como hoy en día, las PC"s de IBM llevan microprocesadores
INTEL y un sistema operativo de Microsoft. Pero el verdadero
desafío de esta última llegaría con la
aparición y creciente popularidad de un sistema de
comunicación y transmisión de información
que revolucionaría al mundo postmoderno, la
INTERNET.
¿Qué es
Internet?
El nombre Internet surge de la combinación da las
palabras "International" (internacional) y "Net" (nexo). Sin
embargo, no fue conocida con esa denominación desde un
principio, sino que es producto de una serie de cambios, de la
evolución de un sistema originario.
Para conocer los orígenes de
internet, es necesario remontarnos a los años sesenta,
época en que en Estados Unidos reinaba el temor al
comunismo, época que hoy en día es conocida como
"guerra fría". Se pensaba que ante un eventual ataque
soviético, las comunicaciones podrían resultar
frágiles, por lo que era necesario un sistema accesible
desde varios puntos del país. Es así como en 1969
nace ARPANET, una red que en principio operó entre 4
computadoras ubicadas estratégicamente en cuatro
universidades diferentes, para un par de años
después llegar a estar en 40 computadoras interconectadas,
lo cual hizo notable que el sistema vigente resultaba obsoleto.
Fue el trabajo de dos investigadores lo que cambió esto,
al crear el protocolo de comunicación TCP/IP. Con el paso
de los años, y al calmarse los ánimos entre Estados
Unidos y la U.R.S.S., ARPANET resultaba sumamente útil
para aquellos que ingresaban con fines académicos. Desde
varias universidades, ingresaban a dicha red con fines de
investigación, por lo que eventualmente las comunicaciones
con fines militares se trasladaron a una versión
diferente, la MILNET. Más adelante, la National Science
Fundation (Fundación Nacional de Ciencia), crea la NSFNET,
que eventualmente absorbió a APARNET,
convirtiéndose en una red de gran utilidad para la
comunidad académica.
Finalmente, APARNET fue desmilitarizada por
completo en 1983, fecha marcada por muchos como el nacimiento de
INTERNET. La red era una formidable herramienta para los
académicos y los científicos de todo el
país, y para 1985 ya era una tecnología firmemente
instalada, pero tenía la desventaja de ser poco accesible
y conocida sólo por unos pocos. Y ni hablar de los
países del tercer mundo. Más adelante, en los
años "90, en el Centro Europeo de Investigaciones
Nucleares, con sede en Suiza, el investigador Tim Berners Lee
estaba al frente de un equipo que buscaba crear un nuevo sistema
de almacenamiento y recuperación de datos. En 1989
presentó un trabajo titulado "El manejo de la
información: una propuesta". En este hablaba sobre los
"hipervínculos" (idea que tomó del autor Ted
Nelson, un filósofo y sociólogo estadounidense, que
en su proyecto "Xanadú", hablaba del "hipertexto", como
fórmula de vinculación de todo el conocimiento
humano), un sistema mediante el cual se podría
interconectar toda la información del mundo. Robert
Caillau, un ingeniero industrial belga, cooperó en el
proyecto, y juntos decidieron bautizar al sistema World Wide Web
(WWW). Era algo revolucionario. El nuevo sistema
permitía vincular mediante el uso de hipertextos la
información a través de la red, información
que era luego interpretada y desplegada por un "browser" o
"navegador", y permitía visualizar los
datos. Finalmente, en 1993, Marc Andreesen fue el
co-creador, junto con su compañero de trabajo, Eric Bina,
de "Mosaic", uno de los primeros navegadores de la historia con
interfaz gráfica, que facilitaba ampliamente la
navegación por la red. Actualmente, Andreseen es conocido
también como co-fundador de Netscape Communications
Corporation, productora del navegador Netscape. Y fue
así como comenzó una etapa de constante
evolución de Internet, convirtiéndose en uno de los
más importantes sistemas de comunicación y
tráfico de información en todo el globo, siendo
accesible para cualquiera que posea una computadora, y un MODEM,
un dispositivo mediante el cual se accede a la red.
Bibliografía
Autor:
Díaz, Luciano
Gabriel
UNIVERSIDAD ABIERTA
INTERAMERICANA
-Sede Almagro-
Página anterior | Volver al principio del trabajo | Página siguiente |